DALEX ist ein Open-Source-Toolset, mit dem sich die Arbeitsweise und das Vorhersageverhalten von komplexen Machine-Learning-Modellen erklären lassen. Es gewährt Einblick in die Funktionsweise der KI-Modelle und kommt im Bereich der Explainable Artificial Intelligence (XAI) zum Einsatz.
DALEX ist die Kurzform für Descriptive mAchine Learning EXplanations. Es handelt sich um ein Open-Source-Toolset, das im Bereich der Explainable Artificial Intelligence (XAI) zum Einsatz kommt. Mithilfe von DALEX lassen sich die Arbeitsweise und das Vorhersageverhalten von komplexen Machine-Learning-Modellen besser erklären. DALEX ist modellagnostisch anwendbar und gewährt Einblick in die Funktionsweise beliebiger Black-Box-KI-Modelle. Es stellt einen Link zwischen den Eingabevariablen und dem Output eines KI-Modells her.
Veröffentlicht wurde DALEX im Jahr 2018 als Paket für die Programmiersprache R von einem Forscherteam um Przemyslaw Biecek an der University of Technology in Warschau. Der Titel der Veröffentlichung ist „DALEX: Explainers for Complex Predictive Models in R“. Biecek und das Forscherteam verwendeten das Kürzel in einer späteren Veröffentlichung für „moDel Agnostic Language for Exploration and eXplanation“. DALEX ist inzwischen Bestandteil von DrWhy.ai, einer Sammlung von Tools für Explainable AI, und auch als Python Package implementiert.
Explainable Artificial Intelligence
Die deutsche Übersetzung für Explainable Artificial Intelligence, abgekürzt XAI, lautet erklärbare Künstliche Intelligenz. Das Gegenteil einer erklärbaren Künstlichen Intelligenz ist die Black-Box-KI. Bei Explainable Artificial Intelligence handelt es sich um ein KI-Forschungsgebiet und eine Form von Künstlicher Intelligenz, die die für den Menschen intransparenten inneren Abläufe und schwer nachvollziehbaren Vorhersageprozesse komplexer Black-Box-KI-Modelle transparent und besser erklärbar machen soll. Durch die Explainable Artificial Intelligence soll das Vertrauen von menschlichen Usern in die Künstliche Intelligenz und die Anwendung ihrer Vorhersagen und Ergebnisse gestärkt werden. Letztendlich steigert eine erklärbare Künstliche Intelligenz die Akzeptanz von KI-Anwendungen und Machine-Learning-Modellen. Weitere Ziele einer Explainable Artificial Intelligence sind ein verantwortungsvoller Umgang mit Künstlicher Intelligenz, mehr ethische Fairness und die Erfüllung von Gesetzesvorgaben oder Compliance-Richtlinien.
Zur Erklärung der inneren Abläufe und des Vorhersageverhaltens einer komplexen Black-Box-KI, beispielsweise basierend auf Deep-Learning-Modellen, können verschiedene Verfahren, Techniken und Toolsets zum Einsatz kommen. Neben DALEX existieren Verfahren wie LIME (Local Interpretable Model-Agnostic Explanations), SHAP (SHapley Additive exPlanations), LRP (Layer-wise Relevance Propagation) und andere. Alle diese Verfahren tragen dazu bei, den Zielkonflikt zwischen einer hohen Leistungsfähigkeit der KI und der Nachvollziehbarkeit ihrer Arbeitsergebnisse aufzulösen. Denn je performanter ein KI-Modell ist, desto weniger nachvollziehbar sind in der Regel die inneren Abläufe und die Arbeitsergebnisse des Modells. Dementgegen erzielen transparente Modelle mit für den menschlichen Nutzer nachvollziehbarer Arbeitsweise oft nicht die gewünschte Leistungsfähigkeit.
Funktionsweise von Descriptive mAchine Learning EXplanations
DALEX arbeitet modellagnostisch. Das bedeutet, dass DALEX für beliebige Machine-Learning-Modelle einsetzbar ist. Jedes Modell wird unabhängig von seiner Komplexität als Black Box betrachtet. Für DALEX von Relevanz sind nur die Eingaben und die Ausgaben der zu erklärenden Modelle und nicht die konkreten inneren Abläufe. Das DALEX-Toolset stellt verschiedene Methoden zur Verfügung, um den Zusammenhang zwischen den Eingabevariablen und dem Output eines Modells besser zu verstehen. Mit DALEX lässt sich aufzeigen, wie Veränderungen der Eingabedaten den Output eines KI-Modells beeinflussen.
Die prinzipielle Funktionsweise von DALEX lässt sich in vereinfachter Form folgendermaßen beschreiben:
Ausgangspunkt ist ein beliebiges KI-Modell mit definierter Ein- und Ausgabe. Das Modell wird in ein sogenanntes Explainer-Objekt konvertiert. Es handelt sich dabei um eine Art Liste, die Trainings- und Metadaten des Modells enthält. Das erstellte Explainer-Objekt kann an verschiedene Funktionen übergeben werden, die unterschiedliche Aspekte des Modells erklären. Es wird quasi eine Art Wrapper um das Modell erzeugt. In dieser Form kann es dann genauer untersucht werden. Erklärungen sind unter anderem in visueller Form zum Beispiel als Aufschlüsselungsdiagramme verfügbar. Mit DALEX lassen sich sowohl die Gesamtmodellarbeitsweise als auch einzelne Vorhersagen erklären. Bei der Betrachtung der Gesamtmodellarbeitsweise wird die Struktur des trainierten Modells erklärt. Der Anwender erhält Einblick in das Trainings-Dataset und wie die Variablen der Trainingsdaten allgemein zur Vorhersageleistung beitragen. Bei der Erklärung von Einzelvorhersagen werden die Variablen aufgezeigt, die maßgeblichen Anteil an der untersuchten spezifischen Vorhersage haben.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Vorteile von Descriptive mAchine Learning EXplanations
erklärt das Vorhersageverhalten und die Entscheidungsprozesse von komplexen Black-Box-Modellen
unterstützt lokale und globale Erklärungsmethoden
liefert Erklärungen auch in visualisierter Form
ist modellagnostisch und unabhängig von der Art des zu erklärenden Modells anwendbar
in R und Python verfügbares Open-Source-Toolset
trägt dazu bei, das Vertrauen in Künstliche Intelligenz zu stärken
ermöglicht das Finden und Beseitigen von Bias oder Fehlern in den Modellen